8 research outputs found

    Migrations en temps réel des machines virtuelles interdépendantes

    Get PDF
    RÉSUMÉ Actuellement, les bonnes circulations et traitements des données sont devenus des clefs de succès dans tous les domaines techniques. Il est donc indispensable que les réseaux, véhiculant ces données, garantissent la qualité de leur transmission et réception. Cela est aussi applicable quand ces données sont échangées en continu par des hôtes virtuels distribués et interdépendants. La consolidation et répartition des charges (Load Balancing) devient un élément important pour améliorer les capacités et les services des réseaux. Cette répartition est possible par des réseaux infonuagiques utilisant des machines virtuelles. Comme ces machines peuvent être déployées et migrées en temps réel et à grande échelle, elles peuvent offrir de très bonnes possibilités de répartition des charges par leurs migrations en temps réel. Ainsi, il est important pour les décideurs de ces répartitions de charges de disposer des techniques efficaces permettant de minimiser les coûts de maintenance et de qualité de ces migrations en temps réel et de maximiser les retours sur investissement de leurs déploiements. Le problème de planification, de consolidation et de migration en temps réel des machines virtuelles (VMs) consiste à identifier les bons choix à effectuer pour placer les ressources d’un réseau de machines virtuelles et à déterminer les bonnes techniques pour les consolider par le déplacement de ces VMs entre des hôtes physiques. Ces déplacements des VMs doivent se faire sans interruption de service et dans des délais très réduits afin de respecter les contrats de niveaux de service et la qualité globale des services virtuels. Depuis quelques années, plusieurs recherches scientifiques se sont attardées sur l’étude de planification et de migration en temps réel des machines virtuelles. Cependant, ces études scientifiques se sont focalisées sur des VMs prises individuellement et non sur l’ensemble des VMs interdépendantes; cette démarche ne permet pas d’obtenir des solutions optimales prenant en considération les interdépendances entre ces VMs. D’autres études scientifiques se sont intéressées aux redéploiements dynamiques des charges d’un réseau en utilisant des migrations en temps réel des VMs et elles ont réussi à présenter des modélisations pour les résoudre. Cependant, elles n’ont pas considéré l’interdépendance entre des services applicatifs installés sur ces VMs; ces services ont besoin parfois d’échanger leurs informations afin d’effectuer leurs exécutions correctement. Cette thèse présente des techniques traitant de la planification, la consolidation, et la migration en temps réel de plusieurs machines virtuelles. L’interdépendance entre les VMs est considérée lors des développements de ces techniques. Notre travail est divisé en trois parties où chacune correspond à un de nos objectifs de recherche. Lors de la première partie, nous développons un modèle mathématique et son heuristique d’approximation pour solutionner le problème d’optimisation de la planification des emplacements des VMs prenant en considération leurs contraintes d’interdépendance; cette heuristique, efficace pour des grands ensembles de machines virtuelles, peut être ensuite exécutée par un logiciel installé sur une machine physique. Nous résolvons ce modèle grâce au solveur mathématique CPLEX en utilisant la méthode de programmation en nombres entiers mixte (MIP). L’objectif de ce modèle est de minimiser les coûts d’un réseau de VMs tout en respectant ses contraintes d’interdépendance. Afin de valider la performance de notre modélisation, nous résolvons avec CPLEX des petits ensembles de tests; ensuite, nous les vérifions et validons. Notre modèle est plus pertinent que celui de la modélisation sans les contraintes d’interdépendance qui donne des solutions dans des délais plus courts, mais qui demeurent non efficaces pour le bon fonctionnement des VMs interdépendantes. Comme le problème NP-difficile de « bin-packing » peut être réduit à notre problème de planification des VMs, ce dernier est aussi NP-difficile; pour cela, nous approximons sa modélisation avec une heuristique de recherche taboue qui est capable de traiter des grands ensembles en peu de temps. Cette heuristique trouve de bonnes solutions dans des délais acceptables pour des problèmes avec des grands ensembles. Cette heuristique visite une zone de solutions potentielles afin d’y trouver l’optimum local, puis elle refait cette même démarche dans des régions avoisinantes. Ainsi, notre heuristique réalise une exploration pertinente de l’espace des solutions possibles. Les performances de notre heuristique sont comparables à celles de notre modèle mathématique approximé dans le cas des problèmes avec des petits ensembles. De plus, cette heuristique est plus performante en ce qui concerne des temps de calcul puisqu’elle réussit à trouver de bonnes solutions dans des délais moindres que ceux des solutions exactes de CPLEX pour des grands ensembles de VMs. Lors de la deuxième partie de notre recherche, nous développons un modèle mathématique « multi-objectifs » (relaxé à un modèle « mono-objectif » par la méthode agrégée de la somme pondérée) et son heuristique d’approximation pour trouver une solution optimale pour le problème de migration en temps réel des VMs interdépendantes; cette modélisation obtient des solutions exactes et optimales pour un nombre réduit de VMs; cette heuristique, permettant de trouver des solutions quasi-optimales en peu de temps, peut être exécutée par un logiciel contrôleur installé sur une machine physique. Cette exécution peut être effectuée à intervalle régulier ou bien quand la qualité de service de certains services virtuels commence à se dégrader. En effet, avec cette modélisation « multi-objectifs » relaxé à « mono-objectif » via la méthode agrégée de la somme pondérée de chacun de nos objectifs, nous trouvons des solutions quasi-optimales pour nos quatre objectifs qui sont le délai de migration des VMs, leur délai d’arrêt, les pénalités dues aux non-respects des contrats de service, et leur qualité de service globale. La modélisation proposée permet plus de flexibilité en assignant un niveau relatif d’importance pour chacun des objectifs via leur facteur de pondération. Concernant la qualité globale de service et les pénalités des non-respects des contrats de niveaux de service (SLAs), les résultats obtenus grâce à notre modèle et son heuristique d’approximation sont meilleurs que la technique « pré-copie » utilisée et conçue pour les migrations en temps réel des VMs. Lors de la troisième partie de notre recherche, nous développons un modèle mathématique et son heuristique d’approximation visant à maximiser le profit net total tout en minimisant les pénalités des services virtuels aux contrats SLAs. Cette optimisation est une tâche complexe en raison de la difficulté de parvenir à un compromis réussi entre les pénalités sur les contrats de niveaux de service et le placement en temps réel des machines virtuelles (VM) interdépendantes. Cette troisième partie étudie donc ce problème de maximisation du profit net total tout en diminuant les pénalités de service et en réalisant des migrations en temps réel de machines virtuelles interdépendantes. Ce problème d’optimisation de placement en temps réel de machines virtuelles est NP-difficile puisque le problème NP-difficile « bin-packing » peut être réduit à ce problème, et son temps de calcul croit exponentiellement avec la taille des ensembles de machines virtuelles et de leurs machines physiques hôtes; pour cette raison, nous approximons notre modèle mathématique avec une heuristique de recherche taboue efficace. Nous testons notre formulation et heuristique pour des services virtuels, où le profit net total doit être maximisé, où les pénalités des services doivent être minimisées, et où des migrations efficaces en temps réel des VMs sont des sujets de préoccupation. Nos résultats de simulations montrent que notre heuristique d’approximation de notre modèle mathématique : (i) trouve de meilleures solutions que la configuration existante des milliers de machines utilisées dans des traces de Google; (ii) est adaptée pour de grandes ensembles des services virtuels avec des dizaines de milliers de machines virtuelles et machines physiques; et (iii) performe mieux en termes de pénalités et profits globaux que notre référence de comparaison c.-à-d. la configuration existante des machines utilisées dans des traces de Google.----------ABSTRACT Currently, data transmission and processing have become keys to success in many technology areas. Therefore, it is essential that networks guarantee the transmission and reception qualities of these data; also, this guarantee is important for data exchanged continuously by distributed and interconnected hosts. Also, “Load Balancing” techniques becomes an interesting key to improve network services and capacities. This load balancing technique is feasible with cloud networks based on virtual machines (VMs). Since these virtual machines can be deployed and live migrated on a large scale, they can offer very good possibilities of load balancing. Thus, it is important that decision makers dispose of effective techniques, such as load balancing, to minimize costs of these live migrations and to maximize their return on investment. Planning and live migration problems of virtual machines aim to identify right choices to place resources of virtual machine networks and to determine right techniques to move VMs between their physical hosts. These VMs’ moves should be done without service interruption and within very short delay. In recent years, several scientific researchers have studied planning and live migration of virtual machines; however, these scientific studies have focused on VMs individually without considering their interdependency constraints. Other scientific studies have investigated dynamic load balancing of a network using VM live migrations and they have succeeded to solve it using mathematical models; however, they did not consider the VMs’ interdependency. This thesis presents some techniques dealing with planning, consolidation, and live migrations of multiple virtual machines. These techniques take into account the VM interdependencies, the network service level contracts (SLAs) and overall quality. Our thesis is divided into three parts corresponding to our three research objectives. In the first part, we develop a mathematical model for VMs planning problem including the interdependency constraints. We solve this model using CPLEX as a mathematical solver with the mixed integer programming (MIP) method. The goal of this model is to minimize the overall cost of a VMs’ network while respecting its interdependent VMs constraints. To validate our modeling performance, we solved, with CPLEX, some small sets; then, we verified and validated our solutions. Our model is more relevant than other models ignoring interdependency constraints and which give solutions in a shorter time but remain ineffective for a proper functioning of interdependent VMs. Since VMs’ placement planning problem is an NP-hard problem (as the NP-hard “bin-packing” problem can be reduced to it), we approximate our model with a tabu search heuristic which is capable to handle large-sized sets. This heuristic finds good solutions in an acceptable delay by visiting areas of potential solutions in order to find local optimums, and then it repeats this process with other surrounding areas; thus, our heuristic performs relevant space explorations for possible solutions. Our heuristic has comparable performance to our approximated mathematical model in the case of small size sets; moreover, this heuristic is more efficient since its running time is lower than CPLEX to find near-enough exact solutions for large-sized sets. In the second part of our research, we have developed a "multi-objective" mathematical model to solve the problem of live migrations of interdependent VMs; this model is solved by relaxing it to a "mono-objective" model using the method of weighted sum of each of its objectives; thanks to this relaxation, we optimize four objectives simultaneously by dealing with live VM migrations, especially, their stop delays, their penalties on service level agreements and the overall quality of service. Our proposed model allows more flexibility by assigning a relative importance level for each objective. Results, of the overall quality of service and overall penalty on SLAs, obtained with our model are better than those of "pre-copy" VM live migrations ignoring VMs’ interdependency constraints. In the third part of this research, we develop a mathematical model to maximize the overall net profits of virtual services while minimizing the penalties on their SLAs. This optimization is a complex task because it is difficult to reach a successful compromise between decreasing the penalties on service level agreements and the live placement of interdependent virtual machines. This third part is therefore exploring this problem optimization of net profit and service penalties while performing live migrations of interdependent virtual machines. This live placement optimization problem of virtual machines is NP-hard and its calculation time grows exponentially with the size of virtual machine sets and their physical machines hosts; for this reason, we approximate our mathematical model with effective tabu search heuristic. We test our formulation and heuristic with virtual services which the overall net profit should be maximized, the penalty on SLAs should be minimized and live migrations should be effective. Our simulation results show that our heuristic: (i) finds better solutions than the existing configuration of machines used in Google traces; (ii) is adapted to large-sized virtual service sets with tens of thousands of virtual and physical machines; and (iii) performs better in terms of penalties and overall net profits when they are compared to those of the existing machines’ configuration of Google

    Défense contre l'attaque d'analyse de trafic dans les réseaux de capteurs sans fil (WSN)

    Get PDF
    RÉSUMÉ Le réseau de capteurs sans fil WSN possède deux modes de fonctionnement, le mode infrastructure où un point d’accès lie les capteurs entre eux, et le mode ad-hoc où les capteurs sont liées directement entre eux. L’architecture de communication entre les capteurs d'un réseau WSN est basée sur différentes couches comme la couche l'application, de transport, de réseau, de liaison/MAC, et la couche physique. Chaque couche a ses propres protocoles de transmissions de données qui peuvent être simulés avec divers outils comme "NS2", "SensorSimil", "SSFNet", "J-Sim", "SENSE", "TOSSIM" et "GlomoSim". Les réseaux WSN sont omniprésents dans divers domaines tels que la santé et le secteur militaire. Ces réseaux ont plusieurs avantages comme la facilité de déploiement massif de leurs capteurs, la protection et la supervision des applications critiques, et le fonctionnement en continu du réseau à temps réel. Cependant, les attaques de dénis de service, comme l’attaque d’analyse de trafic, peuvent avoir des impacts négatifs sur les applications critiques des réseaux WSN, minimisant ainsi la sécurité au sein de ces réseaux. Donc, il est important de sécuriser ces réseaux afin de maintenir leur efficacité. Comme les capteurs sont incapables de traiter leur sécurité d’une manière autonome, une approche globale de la sécurité contre les attaques devient indispensable. Les attaques dans les réseaux WSN, dont les dénis de service font partie, ciblent les informations en circulation. Ces dénis de service se caractérisent par un type d’utilisateur, par un type de service partagé, et par un temps d'attente raisonnable. Plusieurs mécanismes de sécurité de réseaux WSN sont utilisés afin de contrer les effets des dénis de service. Notre étude s'intéresse spécifiquement à l’attaque d’analyse de trafic. Elle en décrit la démarche aboutissant à la localisation de la station de base pour ensuite l’isoler du reste du réseau, et rendre ainsi le réseau WSN désuet. Notre technique de protection utilisée est la génération aléatoire de faux trafic autour d’une fausse station de base mobile. Ce faux trafic est généré par des capteurs collaborateurs, qui injectent dans le réseau WSN du faux trafic à destination de la fausse station de base. L’élection de la fausse station de base et des capteurs collaborateurs est aléatoire. La validation de la technique proposée se fait avec une simulation J-Sim. Notre technique est faisable dans un réseau doté d’une station de base unique, et son application peut s’étendre à un réseau muni de plusieurs stations de base. L’inconvénient de notre solution est la consommation additionnelle élevée des ressources énergétiques des capteurs du réseau WSN protégé. En conclusion, les réseaux WSN peuvent être protégés de l’attaque d’analyse de trafic par l’utilisation d’une partie de leurs réseaux pour générer du faux trafic perturbant ainsi le mouvement de l’attaquant. Mots clés: Réseaux de capteurs sans fil (WSN), Dénis de service (DoS), Sécurité de WSN, Attaque d’analyse de trafic, Fausse station de base mobile.----------ABSTRACT The WSN has two modes, infrastructure mode where an access point connects the sensors between them, and the ad-hoc mode where the sensors are connected together directly. The communication architecture between sensors in a WSN is based on various layers: application, transport, network, link/MAC, and physical layer. Every layer has its own protocols of data transmissions, which can be simulated with different tools like: "NS2", "SensorSimil", "SSFNet", "J-Sim", "SENSE", "TOSSIM", and "GlomoSim". These WSN are omnipresent in several domains like health and military sectors. These networks have several advantages like their easiest massive deployment of its sensors, the protection and the supervision of the critical applications, and the nonstop functioning of the real time network. However, denials of service attacks, like traffic analysis attack can have negative impacts on the critical applications of the WSN, thus minimizing safety within these networks, so these networks require an important security against these DoS to maintain its efficiency. As sensors are incapable of handling their own security in an autonomous way, the security in the WSN becomes difficult, and a global approach of the security against attacks becomes indispensable. Attacks in the WSN network, including denials of services, target information in circulation. These denials of services are characterized by user type, by shared service type, and by reasonable latency. Several mechanisms of securing WSN are used, in order to counter the effects of denials of services. Our study discusses particularly the traffic analysis attack. It describes the approach leading to the localization of the base station, for then insulating it from the network, and thus making WSN network obsolete. Our protection technique uses the random generation of false traffic, around a mobile false base station. This false traffic is generated by collaborator sensors, which inject the false traffic to the false base station. The election of the false base station and the collaborator sensors is random. This technique is validated with J-Sim that confirms its good running. This base station protection technique is feasible in a network equipped with a single base station, and its application can be extended to a network provided with several base stations. The disadvantage of our solution is the high additional energy resource consumption of the sensors of a protected WSN. In conclusion, WSN can be protected from the analysis traffic attack by using a portion of the network sensors to generate a false traffic, thus disrupting the movement of the attacker. Keywords: Wireless sensors Network (WSN), Denials of services (DoS), WSN security, Traffic analysis attack, Mobile false base station

    A comparison of project control standards based on network analysis

    Get PDF
    Project control is a crucial function in project management. Over the years, several best practice standards have been developed to assist project managers in improving project control. The objective of this paper is to compare three prominent best practice models of PMBOK, PRINCE2, and the AACE framework with respect to the core processes of project control. Network analysis is used to achieve this objective. The results show that influential and linkage processes, such as Control quality, Review the stage status, Forecasting, and Change management have the most significant impacts on the complexity of the project control function. This work has the potential to help rethink the project control function by creating a more global view of the most central and critical processes for project control, from which enhancement in the ability to control the project can be drawn

    A comparison of project control standards based on network analysis

    Get PDF
    Project control is a crucial function in project management. Over the years, several best practice standards have been developed to assist project managers in improving project control. The objective of this paper is to compare three prominent best practice models of PMBOK, PRINCE2, and the AACE framework with respect to the core processes of project control. Network analysis is used to achieve this objective. The results show that influential and linkage processes, such as Control quality, Review the stage status, Forecasting, and Change management have the most significant impacts on the complexity of the project control function. This work has the potential to help rethink the project control function by creating a more global view of the most central and critical processes for project control, from which enhancement in the ability to control the project can be drawn

    The core processes of project control: A network analysis

    Get PDF
    ABSTRACT: Project control requires many processes which differ from one project management standard to another. In this paper, project control is investigated based on two different standards: PMBOK and PRINCE2. The aim is to identify which processes are central to project control through network analysis. The results open up a new vision of looking at project control by stating that not only the traditional triangle of quality, time, and cost control but also change control and corrective action decision-making are at the core of project control
    corecore